Un error de Facebook provocó un aumento de las vistas de contenido dañino durante seis meses

Los ingenieros notaron el problema por primera vez en octubre pasado, cuando una repentina oleada de información errónea comenzó a fluir a través de News Feed, señala el informe, que se compartió dentro de la empresa la semana pasada. En lugar de suprimir las publicaciones de los infractores reincidentes de desinformación que fueron revisadas por la red de verificadores de datos externos de la compañía, News Feed distribuyó las publicaciones, lo que aumentó las vistas hasta en un 30 por ciento a nivel mundial. Incapaces de encontrar la causa raíz, los ingenieros observaron cómo el aumento disminuía unas semanas más tarde y luego se intensificaba repetidamente hasta que se solucionó el problema de clasificación el 11 de marzo.

Además de las publicaciones marcadas por los verificadores de hechos, la investigación interna encontró que, durante el período del error, los sistemas de Facebook no degradaron de manera adecuada la posible desnudez, la violencia e incluso los medios estatales rusos que la red social se comprometió recientemente a dejar de recomendar en respuesta a la política del país. invasión de Ucrania. El problema se designó internamente como SEV de nivel uno, o evento del sitio, una etiqueta reservada para crisis técnicas de alta prioridad, como el bloqueo continuo de Facebook e Instagram en Rusia .

El portavoz de Meta, Joe Osborne, confirmó el incidente en un comunicado a The Verge , diciendo que la compañía «detectó inconsistencias en la reducción de rango en cinco ocasiones distintas, lo que se correlacionó con pequeños aumentos temporales en las métricas internas». Los documentos internos decían que el problema técnico se introdujo por primera vez en 2019, pero no generó un impacto notable hasta octubre de 2021. «Rastreamos la causa raíz hasta un error de software y aplicamos las correcciones necesarias», dijo Osborne, y agregó que el error «no se ha solucionado». tuvo un impacto significativo a largo plazo en nuestras métricas” y no se aplicó al contenido que cumplió con el umbral de eliminación de su sistema.

Durante años, Facebook ha promocionado la reducción de rango como una forma de mejorar la calidad de la sección de noticias y ha ampliado constantemente los tipos de contenido sobre los que actúa su sistema automatizado. La reducción de rango se ha utilizado en respuesta a guerras e historias políticas controvertidas , lo que genera preocupaciones sobre la prohibición en la sombra y los llamados a la legislación . A pesar de su creciente importancia, Facebook aún tiene que abrirse sobre su impacto en lo que la gente ve y, como muestra este incidente, qué sucede cuando el sistema falla.

En 2018, el director ejecutivo Mark Zuckerberg explicó que las peleas de descenso de rango son el impulso que tienen las personas de involucrarse inherentemente con contenido «más sensacionalista y provocativo». “Nuestra investigación sugiere que no importa dónde tracemos los límites de lo que está permitido, a medida que un contenido se acerca a ese límite, las personas se involucrarán más en promedio, incluso cuando nos digan después que no les gusta el contenido. ”, escribió en una publicación de Facebook en ese momento.

Mientras tanto, los líderes de Facebook se jactan regularmente de cómo sus sistemas de IA mejoran cada año en la detección proactiva de contenido como el discurso de odio, otorgando mayor importancia a la tecnología como una forma de moderar a escala. El año pasado, Facebook dijo que comenzaría a bajar de rango todo el contenido político en la sección de noticias, como parte del impulso del director ejecutivo Mark Zuckerberg para devolver la aplicación de Facebook a sus raíces más alegres .

No he visto indicios de que haya habido intenciones maliciosas detrás de este error de clasificación reciente que afectó hasta la mitad de las vistas de News Feed durante un período de meses y, afortunadamente, no rompió las otras herramientas de moderación de Facebook. Pero el incidente muestra por qué se necesita más transparencia en las plataformas de Internet y los algoritmos que utilizan, según Sahar Massachi, exmiembro del equipo de Integridad Cívica de Facebook.

“En un sistema grande y complejo como este, los errores son inevitables y comprensibles” , dijo a The Verge Massachi, quien ahora es cofundador del Integrity Institute sin fines de lucro . “Pero, ¿qué sucede cuando una poderosa plataforma social tiene una de estas fallas accidentales? ¿Cómo lo sabríamos? Necesitamos transparencia real para construir un sistema sostenible de rendición de cuentas, para que podamos ayudarlos a detectar estos problemas rápidamente”.

Fuente: theverge

Artículos Relacionados

DEJA UN COMENTARIO:

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.